36 research outputs found

    Lire à l’ère du numérique « Le nénuphar et l’araignée » de Claire Legendre

    Full text link
    Cet article se veut exploratoire en deux temps : une piste de réflexion sur l’impact du numérique sur les sciences humaines, et une lecture de l’essai « Le nénuphar et l’araignée » de Claire Legendre, publié le 4 février 2015 chez Les Allusifs. Notre hypothèse est qu’il est nécessaire de jeter les bases d’une théorie et d’une pensée du numérique, comme de poursuivre et de favoriser l’implémentation de nouveaux outils de recherche conçus par et pour les humanités, en lien direct avec les questions d’édition, de diffusion, d’encodage, de fouille, de curation, ou encore de visualisation et de représentation des données textuelles, sonores et visuelles. Cet article propose ainsi une première piste d’exploration de l’usage de ces nouvelles possibilités pour la littérature québécoise.This article is both a reflexion on the impact of digital culture on social sciences and humanities, and a theoretical reading of Claire Legendre’s essay « Le nénuphar et l’araignée », published on 4 February 2015 by Les Allusifs. Our hypothesis is that it is important to think simultaneously about the theoretical aspect of digital culture along with the pragmatic implementation of new research tools developed for and by social sciences and humanities researchers. The latter are tied directly to a new generation of critical editions with new possibilities of data mining or representing an array of data, be it sound, visual, or text based. This article thus offers a preliminary case study for exploring these new possibilities within Quebec literature

    Application de techniques de forage de textes de nature prédictive et exploratoire à des fins de gestion et d'analyse thématique de documents textuels non structurés

    Get PDF
    Depuis les dix dernières années, on observe une hausse considérable du nombre d'initiatives visant à numériser et à rendre disponible le patrimoine informationnel des organisations et des différentes branches du savoir. Les conséquences découlant de ces initiatives sont importantes et très nombreuses. Elles ont entre autres conduit à l'émergence d'applications permettant différentes opérations complexes d'analyse et de gestion des documents. Malgré la diversité de ces applications, on constate que l'ensemble des disciplines reliées à l'analyse et à la gestion des documents textuels sont axées sur la compréhension et l'informatisation des processus d'identification des contenus thématiques et d'analyse thématique. Le projet que nous présentons aborde précisément les problématiques de l'identification des thèmes et de l'assistance à l'analyse thématique des documents textuels. L'objectif général du projet est de développer et de valider deux méthodologies informatiques fondées respectivement sur la catégorisation et la classification automatiques permettant d'assister efficacement l'identification des thèmes et, surtout, l'analyse thématique des documents textuels. Il vise ainsi à effectuer un transfert de concepts et de méthodologies provenant, d'une part, des recherches théoriques et pluridisciplinaires portant sur l'analyse thématique et, d'autre part, des recherches appliquées en classification et en catégorisation automatiques des données afin de proposer une méthodologie et un prototype d'application flexible visant à assister le chercheur dans son travail d'analyse thématique des textes. Le défi principal de ce projet réside donc dans l'opérationnalisation de l'analyse thématique en employant certaines stratégies de classification et de catégorisation automatiques des textes. Au niveau cognitif, nous proposons d'explorer la pertinence et la fécondité de certaines théories d'inspiration linguistique et littéraire ayant abordé la question du thème pour nous aider dans l'identification du contenu thématique et l'analyse thématique des documents textuels. À ce niveau, notre objectif est de démontrer comment les théories retenues, celles de Kintsch et Van Dijk, de Rimmon-Kenan et de Rastier, ont défini le thème de telle sorte qu'il est possible d'en assister informatiquement l'identification et l'analyse à l'aide de la méthodologie que nous proposons. Au niveau informatique, un premier volet de notre démarche consiste à explorer et à comparer les performances des opérations de catégorisation et de classification automatiques à des fins d'identification du contenu thématique et d'analyse thématique des documents textuels non structurés. Les résultats sont évalués en appliquant un système de catégorisation hybride neuro-flou et un algorithme de classification neuronal non supervisé sur un corpus d'articles de journaux. Par ailleurs, la classification et la catégorisation sont des opérations traditionnellement appliquées à des documents entiers. Nous proposons une manière alternative de réaliser ces processus : notre démarche consiste d'abord à segmenter chacun des documents puis à soumettre aux processus de regroupement les différents segments de texte. Cette démarche a l'avantage de pouvoir attribuer plusieurs catégories thématiques à chaque document, ce qui est plus difficilement réalisable lorsque les documents sont traités en entier. Finalement, dans bon nombre d'applications d'analyse et de gestion des documents textuels, le processus de catégorisation est effectué en utilisant un plan de classification ou une taxinomie de catégories prédéfinies. Le développement de ces taxinomies, bien qu'il puisse être assisté dans certains cas par des applications informatiques, s'avère coûteux et très complexe. Dans ce projet, nous démontrerons qu'il est possible, en l'absence de taxinomies, d'employer certains termes du lexique initial du corpus comme étiquettes thématiques.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : analyse thématique, identification de thèmes, Lecture et Analyse de Textes Assistées par Ordinateur (LATAO), classification automatique, catégorisation automatique

    Cartographier l’évolution du contenu de la revue Archives au moyen des techniques de fouille de textes et de bibliométrie

    Get PDF
    À l’occasion du 50e anniversaire de l’Association des archivistes du Québec (AAQ), cinq professionnels de l’archivistique ont réalisé une analyse du contenu de la revue Archives à partir d’une approche basée sur des techniques de fouille de textes, complétée par une analyse bibliométrique. Ces techniques facilitent le traitement de grandes quantités de données afin d’en extraire automatiquement certaines caractéristiques qui les ont renseignés tant sur l’évolution thématique de la revue que sur la place qu’occupe sa production dans l’espace archivistique scientifique et professionnel québécois et international. Leur article offre une occasion de revenir sur les principales thématiques abordées dans la revue depuis les vingt dernières années en rendant compte de l’évolution des objets de recherche étudiés et, plus généralement, de la profession archivistique. Il permet également de s’interroger sur les liens existants entre les auteurs et leurs institutions, et de faire le point sur l’académisation ou la professionnalisation de la revue

    Une approche d’enseignement des mathématiques par la résolution de problèmes : qu’en disent les enseignants du primaire ?

    Get PDF
    In mathematics curricula, there are mainly three approaches to problem-solving (PS) instruction: teaching about PS, teaching for PS and teaching through PS. Although these approaches are consensual, their implementation in class is not clear. More specifically, we question teaching through PS approach when teaching new mathematical concepts. It seems even more important when we consider the benefits associated with such an approach, like the development of pupils’ conceptual understanding. Our objectives are to provide an overall picture of the practices declared by elementary school teachers when they teach a new mathematical concept and to identify conditions that are favorable for teaching through problem solving. This text presents the problematic, the conceptual framework and the methodology of this research.Dans les programmes de mathématiques, trois rôles sont principalement attribués à la résolution de problèmes (RP) : l’enseignement de la RP, l’enseignement pour la RP et l’enseignement par la RP. Bien que la pertinence de ces rôles fasse consensus, leur mise en place dans les milieux scolaires québécois est beaucoup moins claire. Plus précisément, nous nous questionnons sur la mise en œuvre d’une approche par la RP au moment d’enseigner de nouveaux concepts mathématiques. Ce questionnement est d’autant plus important lorsque l’on considère les bénéfices associés à une telle approche, notamment le développement d’une compréhension conceptuelle chez les élèves. Nos objectifs sont donc de brosser un portrait des pratiques déclarées des enseignants du primaire au moment d’aborder un nouveau concept mathématique et de dégager les conditions favorables à la mise en oeuvre d’un enseignement par la RP. Ce texte présente la problématique, le cadre conceptuel et la méthodologie de cette recherche

    Livre universitaire numérique en sciences humaines et sociales : pour un foyer d’expertise et une infrastructure de stature mondiale (Le)

    Get PDF
    Au moment où le numérique occupe de plus en plus d’espace dans la communication scientifique, il est utile de s’interroger sur la capacité d’implantation (formes organisationnelles et modèles d’affaires) d’un système de publication numérique issu de la communauté universitaire en mesure d’éditer, de mettre en valeur et d’assurer la présence internationale du livre universitaire en sciences humaines et sociales

    La littérature jeunesse pour enseigner les mathématiques: Résultats d’une expérimentation en première année

    Get PDF
    L’étude a pour but d’élaborer et d’évaluer une approche d’enseignement de la numération positionnelle en recourant à la littérature jeunesse. Une série de contes pour enfants a été écrite dans laquelle les personnages rencontrent des problèmes où les mathématiquesseront utiles pour les résoudre. Un devis quasi expérimental avec groupes témoin et expérimental a été utilisé pour évaluer l’approche auprès d’élèves de première année provenant de milieux défavorisés. Les analyses montrent que les élèves du groupe expérimental avaient une meilleure compréhension conceptuelle de la numération positionnelle à la suite de l’intervention que les élèves du groupe témoin

    A roadmap for global synthesis of the plant tree of life

    Get PDF
    Providing science and society with an integrated, up-to-date, high quality, open, reproducible and sustainable plant tree of life would be a huge service that is now coming within reach. However, synthesizing the growing body of DNA sequence data in the public domain and disseminating the trees to a diverse audience are often not straightforward due to numerous informatics barriers. While big synthetic plant phylogenies are being built, they remain static and become quickly outdated as new data are published and tree-building methods improve. Moreover, the body of existing phylogenetic evidence is hard to navigate and access for non-experts. We propose that our community of botanists, tree builders, and informaticians should converge on a modular framework for data integration and phylogenetic analysis, allowing easy collaboration, updating, data sourcing and flexible analyses. With support from major institutions, this pipeline should be re-run at regular intervals, storing trees and their metadata long-term. Providing the trees to a diverse global audience through user-friendly front ends and application development interfaces should also be a priority. Interactive interfaces could be used to solicit user feedback and thus improve data quality and to coordinate the generation of new data. We conclude by outlining a number of steps that we suggest the scientific community should take to achieve global phylogenetic synthesis

    Data-driven and hybrid coastal morphological prediction methods for mesoscale forecasting

    Get PDF
    It is now common for coastal planning to anticipate changes anywhere from 70 to 100 years into the future. The process models developed and used for scheme design or for large-scale oceanography are currently inadequate for this task. This has prompted the development of a plethora of alternative methods. Some, such as reduced complexity or hybrid models simplify the governing equations retaining processes that are considered to govern observed morphological behaviour. The computational cost of these models is low and they have proven effective in exploring morphodynamic trends and improving our understanding of mesoscale behaviour. One drawback is that there is no generally agreed set of principles on which to make the simplifying assumptions and predictions can vary considerably between models. An alternative approach is data-driven techniques that are based entirely on analysis and extrapolation of observations. Here, we discuss the application of some of the better known and emerging methods in this category to argue that with the increasing availability of observations from coastal monitoring programmes and the development of more sophisticated statistical analysis techniques data-driven models provide a valuable addition to the armoury of methods available for mesoscale prediction. The continuation of established monitoring programmes is paramount, and those that provide contemporaneous records of the driving forces and the shoreline response are the most valuable in this regard. In the second part of the paper we discuss some recent research that combining some of the hybrid techniques with data analysis methods in order to synthesise a more consistent means of predicting mesoscale coastal morphological evolution. While encouraging in certain applications a universally applicable approach has yet to be found. The route to linking different model types is highlighted as a major challenge and requires further research to establish its viability. We argue that key elements of a successful solution will need to account for dependencies between driving parameters, (such as wave height and tide level), and be able to predict step changes in the configuration of coastal systems
    corecore